#Google 雲
湯之上隆:AI並非“泡沫”,而是產業趨勢
生成式人工智慧創造的不是泡沫,而是一種趨勢。雲服務商的資本支出(Capex)已經達到了無法再用“顯著增長”來形容的程度。排名前八的雲服務商的投資額將從2021年的1451億美元增長到2026年的6020億美元,增長超過四倍。這種增長速度簡直令人難以置信。即便如此,市場中仍不乏對這一主流避險配置的質疑聲:“又是一場泡沫”“遲早會破裂” 之類的論調甚囂塵上。但此類說法毫無事實依據,並非單純的主觀臆斷,本質上更是對現實的刻意迴避。究其根源,當下的投資規模擴張,並非由經濟周期、市場情緒或泡沫化趨勢驅動,而是源於物理定律的底層支撐 —— 海量的算力需求。核心關鍵在於,生成式人工智慧的計算負載絕非 “搜尋功能的延伸”,而是屬於更高維度的 “學習與推理” 範疇。正如後文將詳細闡釋的,Google搜尋的算力架構以 CPU 為核心,而 ChatGPT 的推理環節則以 GPU 為核心展開大規模矩陣運算,其所需的計算量更是前者的 1 萬至 10 萬倍。換言之,雲服務廠商的算力投入並非出於主動選擇,而是源於行業競爭的必然要求 —— 若不跟進佈局,便會在賽道中陷入落後。對於當下的雲平台而言,無法支撐生成式人工智慧的運行,就等同於喪失核心價值。也正因如此,這場算力投資的浪潮不僅不會止步,更具備了不可逆的行業必然性。雲投資正以驚人的速度增長圖1呈現了全球頭部八大雲服務商的資本投入趨勢,這八家企業分別為亞馬遜(AWS)、微軟(Azure)、Google雲(Google Cloud)、Meta(原 Facebook)、甲骨文(OCI)、阿里雲、騰訊雲與字節跳動。圖1:排名前 8 的雲服務提供商的資本投資情況。來源:根據 TrendForce 資料製作正如本文開篇所述,這八家企業的資本開支規模將從 2021 年的 1451 億美元攀升至 2026 年的 6020 億美元,增幅超四倍。這樣的資本投入已非單純的 “增長”,而是邁入了加速擴張的階段。儘管 2022-2023 年期間其資本開支出現短暫回落,但這絕非可以放鬆警惕的訊號。從 2024 年開啟的回升態勢能夠清晰看出,頭部雲服務商的佈局已再度 “加碼升級”,而這一投資拐點恰好出現在 OpenAI 推出 ChatGPT 之後。換言之,這些企業佈局生成式人工智慧相關投資,並非只因它是被追捧的 “下一個金礦”,更在於其作為行業遊戲規則改變者,徹底重構了雲端運算基礎設施的底層需求。驅動雲端運算領域投資擴張的因素多元且複雜:資料中心建設、土地儲備、電力配套、冷卻技術、網路架構、儲存能力、安全體系…… 但貫穿所有維度的核心邏輯,始終是爆發式增長的計算需求。算力需求的指數級攀升,直接推動了全產業鏈各環節成本的同步上漲,本質而言,雲端運算行業的這場投資增長,就是一場對海量算力資源的爭奪戰。當下市場對算力的極致需求,早已無法用傳統網路與搜尋服務的擴容邏輯來解釋。生成式人工智慧對雲端運算的要求,並非簡單的 “再添一個胃”,而是倒逼整個行業重構算力 “消化系統”,打造出足以承載海量需求的超大規模算力底座。Google搜尋和ChatGPT相似但不相同在此,需要糾正一個極具誤導性的核心認知偏差:將Google搜尋與生成式人工智慧簡單等同為 “使用者提出問題、平台給出答案” 的同類工具。如圖2所示,二者的使用者操作表層邏輯看似高度相似,互動形式幾乎別無二致。但現實是,坐擁全球超 30 億使用者的Google搜尋,正面臨使用者向 ChatGPT 等生成式人工智慧產品遷移的趨勢,而後者的使用者規模也已突破 10 億量級,持續快速擴張。圖2:Google搜尋與 ChatGPT 5 使用者提問行為示例。自去年開始使用 ChatGPT 付費版後,個人便極少再使用Google搜尋,核心原因正是前者的使用體驗更為高效便捷。而這一體驗上的差異,正被全球越來越多的使用者感知,也直接推動了生成式人工智慧使用者規模的持續攀升。更為關鍵的是,即便使用者提出的是完全相同的問題,Google搜尋與 ChatGPT 等生成式人工智慧在雲端完成的底層處理邏輯,卻有著本質區別。這一核心差異可通過圖3清晰呈現:Google搜尋依託以 CPU 為核心的索引式檢索架構,而 ChatGPT 的推理過程,則是以 GPU 為核心展開的大規模矩陣運算。從算力消耗來看,Google搜尋單輪處理的浮點運算量(FLOPs)約為 10 億至 100 億次,ChatGPT 的推理運算量則達到 10 兆至 1000 兆次,二者的算力需求相差 1 萬至 10 萬倍。圖3:Google搜尋與 ChatGPT 5 算力及處理成本對比。不僅如此,ChatGPT 單次處理所需的伺服器耗時,是Google搜尋的 10-100 倍;能源消耗與碳排放,均為Google搜尋的 10-200 倍;綜合成本更是達到Google搜尋的 50-2000 倍,算力與資源消耗的差距呈指數級拉大。簡言之,生成式人工智慧絕非所謂的 “高端版搜尋”,其背後是完全不同的計算邏輯,且承載著遠為繁重的算力負載。正因如此,生成式人工智慧的規模化落地,意味著雲端處理的計算單元必須向超大規模升級 —— 這並非依靠價格談判、市場推廣就能解決的商業問題,而是從物理底層提出的硬性要求:既需要 AI 半導體(如 GPU)、高頻寬記憶體(HBM)等核心硬體支撐,也離不開電力、冷卻系統、網路架構的配套升級,甚至對底層的布線、封裝技術都提出了全新要求。市場中常有一種論調:“技術效率終將提升,算力需求自然會下降。” 不可否認,AI 領域的技術效率確在持續最佳化,但算力需求的下降速度,早已跟不上生成式人工智慧的應用邊界拓展、使用頻次提升與性能迭代速度。即便單輪計算的算力消耗因效率提升而降低,若社會層面的生成式人工智慧使用頻次增長十倍,整體算力需求仍會同步攀升。更何況,隨著輸入輸出的文字長度持續增加,圖像、視訊類推理場景的落地應用,算力需求還將迎來新一輪的爆發式增長。換言之,雲端運算行業的持續高投入,並非源於市場的 “盲目熱情” 或 “投資過熱”,而是算力需求發生結構性變革的必然結果。對頭部雲廠商而言,一旦停止算力佈局,就意味著直接確認市場競爭的落後態勢。推動其持續加碼投資的,從來不是敢於冒險的勇氣,而是源於行業競爭的深層恐懼 —— 對錯失算力浪潮、陷入競爭被動的恐懼,才是這場算力投資競賽的核心驅動力。人工智慧與以往的泡沫經濟有著本質區別由此引出核心問題:當前這場圍繞生成式AI的雲端運算投資熱潮,真的是一場泡沫嗎?答案很明確:將當前現象簡單斥為“泡沫”是完全錯誤的,核心原因在於,過去的泡沫與當前熱潮的“需求性質”存在本質差異。可通過定量分析清晰佐證這一點。圖4呈現了全球半導體出貨量及其同比增速趨勢,清晰勾勒出Windows 95泡沫、IT泡沫與記憶體泡沫的完整軌跡。從資料可見,過往的各類泡沫均呈現“快速增長後驟降”的特徵——這背後的核心邏輯是,當時的需求嚴重依賴“暫時性增長”與“庫存調整”,缺乏持續的底層支撐。圖4:全球半導體出貨量及較上年增長率。來源:作者根據 WSTS 資料製作圖5A通過對比表形式,呈現了Windows 95泡沫、IT泡沫、記憶體泡沫及當前AI熱潮(暫統稱“熱潮”)從第N年到第N+3年的同比增速變化;圖5B則進一步量化了這一波動:Windows 95泡沫期間增速達41.7%,隨後驟降至-8.6%;IT泡沫增速36.8%,後續跌至-32.0%;記憶體泡沫增速13.4%,繼而滑落至-12.0%。這種“繁榮後迅速蕭條”的劇烈波動,正是過往泡沫的典型特徵。來源:作者根據WSTS資料製作與之形成鮮明對比的是生成式AI相關需求的增速表現:2023年同比增速為-8.1%,2024年回升至19.7%,2025年預計達22.5%——這意味著2024年及2026年將持續保持正增長。正如眾多行業專家論證的那樣,直至2030年,生成式AI相關需求大機率不會出現負增長。簡而言之,當下正在發生的並非“泡沫”,而是一場單一、龐大且具備強大慣性的“結構性趨勢”。此次趨勢與過往泡沫的核心差異,在於需求來源的本質不同:過往需求多源於個人電腦普及、智慧型手機更新換代等“替換購買浪潮”,屬於階段性的消費端需求爆發;而當前的需求核心,是計算基礎設施的剛性升級需求。更關鍵的是,生成式AI並非“銷售產品即完成閉環”的傳統業態——它將滲透到社會經濟的方方面面,融入各類服務場景,整合至搜尋與辦公系統,成為企業生產力提升的核心基石。由於這一核心基石建立在極其龐大的計算量之上,雲端運算投資便不再是“經濟繁榮期的可選配置”,而是成為支撐社會高效運轉的“基礎結構”。從這個意義上講,那些將生成式AI相關投資斥為“泡沫”的觀點,本質上是對這一結構性變革的逃避。這種“基礎設施級的算力需求爆發”,是過往教科書式的泡沫案例中從未出現過的全新形態。到2030年,投資將持續增長基於這一邏輯,2030年之前,相關投資的持續增長將是大機率事件。那麼,頭部八大雲服務廠商的資本支出最終將增長至何種規模?圖6呈現了這八大廠商資料中心投資的預測情況,並劃分了悲觀、基準、樂觀三種情景。圖6:八大雲服務提供商的資料中心投資預測。來源:TrendForce 新聞稿及作者預測值得注意的是,即便在最悲觀的情景下,投資規模仍將保持持續增長——核心原因在於,生成式AI相關的算力佈局已成為行業“競爭入場券”,而非可選擇性的“奢侈品”。這正是生成式AI時代雲端運算競爭的殘酷之處:對雲服務廠商而言,停止投資並不會帶來“利潤率提升”,反而會直接導致“AI性能落後、客戶流失、平台價值崩塌”。換句話說,放緩或停止算力相關投資,並非理性的商業決策,更像是對市場競爭的主動認輸。事實上,相關投資的退出成本極高:GPU與高頻寬記憶體(HBM)等核心硬體價格昂貴,電力供應、散熱技術的升級需要長期投入,且整個產業鏈的供應鏈體系錯綜複雜。即便面臨諸多挑戰,投資仍在持續推進——因為市場已形成明確的競爭格局:“缺乏足夠算力支撐的企業,將直接被市場淘汰”,甚至來不及進入投資回報率(ROI)的考量階段。歸根結底,當前頭部雲廠商的持續投資,已不再是“購買未來的不確定性”,而是“守護當前市場地位”的剛性需求。只要這一“算力決定競爭力”的市場結構不發生根本改變,到2030年投資持續增長的趨勢,似乎也成為了必然結果。資料中心邏輯電路市場正在快速擴張雲端運算投資的增加將直接推動半導體市場的擴張。特別是資料中心邏輯晶片,未來市場必將迎來增長。圖7顯示了資料中心邏輯晶片市場(2024 年至 2030 年)的預測。GPU 市場預計將從 1000 億美元增長一倍以上至 2300 億美元,而 AI ASIC 市場預計將增長九倍以上,從 90 億美元增長至 840 億美元。圖7:資料中心邏輯預測(2024 → 2030 年)。來源:作者根據 Yole Group 的預測資料製作值得注意的是,生成式人工智慧的發展不會止步於輝達的GPU。超大規模資料中心營運商不願依賴單一供應商,因為這意味著他們將失去價格談判能力。他們傾向於採用專用於特定應用的人工智慧ASIC晶片,以“提升性能而非降低性能,並降低成本”。其中許多晶片由博通公司設計。換句話說,人工智慧半導體市場不會是“GPU獨佔的黃金時代”,而是會轉型為“GPU仍將佔據主導地位,而AI ASIC(博通)將發展壯大,成為市場兩大支柱”的市場格局。即使GPU繼續扮演主導角色,AI ASIC也必將增長。這就是資料中心邏輯市場的現實。儘管記憶體供應短缺,但其價格仍在持續飆升圖 8顯示了生成式 AI 將最積極消耗記憶體的領域。DRAM市場預計將從 2024 年的 970 億美元翻一番,達到 1940 億美元,其中 HBM 市場將達到 980 億美元。圖8:儲存器市場預測(2024 → 2030 年)來源:作者根據 Yole Group 的預測資料製作這意味著到2030年,HBM將佔據DRAM市場的一半份額。這不僅是市場擴張,更是記憶體行業主導地位的轉變。此外,圖 9顯示,DRAM 和 NAND 的現貨價格預計將在 2023 年至 2026 年間上漲。以往“價格上漲,產量增加,價格趨於穩定”的常識已不再適用。提高 HBM 的產量並非易事,提高良率也面臨挑戰,封裝也是一個重要因素。裝置和材料方面都存在諸多限制,供應難以滿足需求。圖9:DRAM 和 NAND 現貨價格上漲。來源:作者根據 TrendForce 資料製作此外,記憶體製造商正將重心轉向人工智慧伺服器記憶體,因為這類記憶體利潤更高。這將減少用於個人電腦和智慧型手機的通用記憶體供應,並推高價格。換句話說,人工智慧的普及將導致記憶體市場長期短缺和價格高企。簡而言之,記憶體短缺問題將持續存在,價格也將持續上漲。這並非“特殊且暫時的現象”,而可能成為人工智慧時代的新常態。台積電的主要盈利產品從N5轉向N3最能有效利用這股“人工智慧浪潮”獲利的半導體製造商很可能是台積電。圖 10顯示了台積電按製程節點劃分的銷售額趨勢,直觀地展現了其主要盈利產品從 N7 到 N5,再到 N3 的轉變過程。圖 10:台積電按節點劃分的季度銷售額。來源:作者根據台積電歷史營運資料製作圖11顯示了各節點晶圓投入量的變化趨勢。從圖中可以看出,未來只有 N5、N3 和 N2 節點的投入量會增長,而其他節點的投入量則呈下降趨勢。這並非一句空洞的“前沿技術很重要”,而是事實:只有前沿技術的投入量在增長。換句話說,台積電已經轉型為一家完全依靠前沿技術盈利的晶圓代工廠。圖11:台積電各節點季度晶圓投入量(2025年第四季度預測)。來源:Claus Aasholm,以及作者估算生成式人工智慧需要海量的計算,這需要大量的高性能人工智慧半導體,而這又需要龐大的先進工藝產能。台積電是唯一能夠滿足這一需求的公司。這種簡單的因果關係正是半導體行業發展的驅動力。N3的主導地位從蘋果轉移到輝達和博通此前,蘋果一直是台積電最大的客戶,推動著台積電尖端工藝的發展。然而,這種情況正在發生改變。圖12和圖13顯示了台積電按公司劃分的 N3 晶圓投入預測。資料顯示,輝達和博通的投入量將在 2025 年至 2026 年間增長,超過蘋果。圖 12:台積電對各公司 3nm 晶圓投入量的預測(每月 1000 片晶圓)。來源:TrendForce圖 13:台積電對各公司 3nm 晶圓投入量的預測。來源:TrendForce這不僅僅關乎客戶排名。從尖端半導體的發展史來看,這標誌著一個時代的轉變:從智慧型手機處理器引領潮流的時代,過渡到人工智慧半導體主導尖端技術的時代。蘋果利用尖端技術提升使用者體驗。輝達和博通則利用尖端技術稱霸雲端運算領域。二者的區別顯而易見。人工智慧半導體並非“賣出去就完事”,它們將作為“持續運行的基礎設施”而廣泛應用。換句話說,對尖端工藝的需求具有極強的粘性。N3 將成為台積電的主要盈利產品,這不僅反映了台積電的實力,也反映了人工智慧如何重塑了尖端產品的需求結構。同樣的現象也可能出現在台積電的N2晶片上,台積電將於2025年第四季度開始量產N2晶片。蘋果或許會率先使用N2晶片,但不出六個月,輝達和博通很可能就會佔據主導地位。換句話說,蘋果將成為打造最先進生產線的先驅,隨後輝達和博通將成為市場主導者,為台積電的利潤做出巨大貢獻。真正的瓶頸在於CoWoS然而,人工智慧半導體的發展存在許多瓶頸,其中最嚴重的是 2.5D 封裝(如 CoWoS)的產能。圖 14顯示了 2.5D 封裝的產能趨勢。人工智慧半導體無法通過先進工藝節點製造的“單晶片”實現,必須與 HBM 結合才能形成系統。CoWoS 對此至關重要,只要這種產能不足,人工智慧半導體的供應就將持續短缺。圖 14:2.5D 封裝容量趨勢。來源:TrendForce換句話說,當前人工智慧市場的制約因素最終將歸結為一點:“CoWoS 不足”。這裡有一個與直覺相悖的預測:一旦CoWoS的限制解除,投資會趨於平靜嗎?答案恰恰相反:投資將會增加。這是因為人工智慧半導體目前供應受限,即使雲服務提供商想要購買也無力承擔。一旦供應限制解除,此前被抑制的投資將會爆發。雲服務提供商將抓住機會大量採購他們一直等待的半導體,建設人工智慧資料中心,進一步加劇競爭。投資非但不會“趨於平靜”,反而極有可能“進入下一階段”。生成式人工智慧創造的不是泡沫,而是一種趨勢。這正在半導體行業引發一場“結構性變革”。而且,這場變革是不可逆轉的。 (半導體產業縱橫)
估值不便宜,基本面又很強:理性投資者該如何判斷Google的多空機會?
Google系列的終章篇;將從最近新聞大熱的Google TPU到雲服務,詳細、總結性分析“看多”與“看空”Google的理由。如果你對投資Google有興趣,那麼這篇值得閱讀。(註:系列文章,翻譯自Acquired播客,上期文章和資料來源連結已放在文末,Ben & David是播客的主持人)Ben:在過去 12 個月裡,Google創造了 3700 億美元的營收。在利潤方面,他們在過去 12 個月裡創造了 1400 億美元,這比任何其他科技公司的利潤都要多。放眼全球,唯一一家收益高於Google的公司是沙烏地阿拉伯阿美。別忘了,Google擁有史上最好的商業模式。我們在 Alphabet 那期節目的結尾也提到過這一點:即便身處 AI 時代,即便經歷了過去 5 年乃至10 年的風雲變幻,自我們在 2015-2016 年做完Alphabet 節目以來,Google的核心業務依然增長了 5 倍。再看市值。Google突破了之前 2 兆美元的高點,並在本月早些時候剛剛觸及 3 兆美元大關。他們目前是全球市值第四高的公司,僅次於輝達、微軟和蘋果。這簡直太瘋狂了。看他們的資產負債表,我覺得這其實非常有趣。我通常不會在這個環節看資產負債表,但這很有用。目前,他們擁有 950 億美元的現金和有價證券。我差點就此打住,想說:“哇,看他們擁有多少現金和資源。”但我實際上驚訝的是,這個數字居然沒有更高。2021 年時這個數字曾是 1400 億美元,而在過去四年裡,他們發生了巨大的轉變,從囤積現金的模式轉變為配置現金的模式,其中很大一部分用於建設 AI 資料中心的資本支出(Capex)。所以,他們在資本支出配置上非常有進攻性,就像 Meta、微軟和亞馬遜一樣。但我有點沒想通的是,資金支出的最大頭實際上是股票回購,而且他們還開始派發股息了。如果你不是搞金融的,這背後的潛台詞是:是的,我們仍然需要大量現金來投資 AI 和資料中心的未來,但我們手頭的現金實際上還是遠超所需,所以我們決定將其分給股東。這說明了他們的核心搜尋廣告業務是多麼瘋狂。這就好比他們在說:“商業史上資本最密集的競賽正在進行,我們打算贏得這場比賽。而且,在預留了足夠的資金投入這場資本支出競賽,並加上安全墊之後,我們手裡還有大把多餘的現金。”Google不為人熟悉的“雲服務”業務Ben: 所以,這裡有兩個業務值得關注。一是 Gemini,我們要搞清楚那裡發生了什麼;二是Google雲(Google Cloud)的簡史。我想告訴你今天的雲業務資料,但在此之前,有必要瞭解一下雲業務是如何走到這一步的可能更有價值。首先是 Gemini,因為這是Google,我認為他們的財務狀況是我們在所有研究過的公司中最晦澀難懂的。他們在財務報表裡“藏球”的能力最讓我抓狂。當然,我們不知道 Gemini 的具體營收。我們所知道的是,Google One 捆綁套餐有超過 1.5 億付費訂閱者。其中大部分處於非常低的檔位,比如每月 5 美元或 10 美元。AI 功能是在每月 20 美元的檔位才生效,在這個檔位使用者可以獲得高級 AI 功能,但我認為目前這在 1.5 億使用者中只佔很小的一部分。David:是的,我想我就在這個檔位。Ben:但有兩點值得注意。第一,它增長迅速。這 1.5 億使用者正以同比近 50% 的速度增長。第二,Google擁有一個 1.5 億人訂閱的訂閱套餐。所以我腦海裡一直有個想法,即 AI 作為一種人們直接付費的商業模式是沒有未來的,還是它必須像搜尋一樣由廣告支援?David:但是,這可不是個小數目。Ben:這幾乎相當於半個美國的人口。我的意思是,Netflix(網飛) 有多少訂閱者?Netflix 的使用者數是以億計的。這是真正成規模的消費者訂閱服務。我要感謝 Shashir Moroto 提供的這個洞察。實際上我們昨晚聊過,因為我在上一期節目中提到了他的名字,他聽到後聯絡了我們。那次談話讓我對此的態度發生了一百八十度大轉彎。我曾經認為,如果你要對某樣東西收費,你的總潛在市場(TAM)就會縮水 90% 到 99%。但他提出的觀點是,如果你建構一個真正引人注目的捆綁套餐——而Google擁有建構引人注目的捆綁包所需的數位資產。YouTube Premium、NFL Sunday Ticket、Play Store 裡的東西、YouTube Music,以及所有 Google One 儲存服務。他們可以把 AI 放入這個捆綁包,通過巧妙的捆綁經濟學,打造出一款付費 AI 產品,並真正觸達海量的付費訂閱使用者。所以,我們真的無法弄清楚Gemini 現在賺多少錢。反正可能也不盈利。所以,分析它有什麼意義呢?但是,好吧,給我們講講雲業務的故事。我們在 Alphabet 那期節目——也就是實際上是“Google第二部”中——故意沒有包含雲業務。因為它是一個新產品,現在在Google內部非常成功,且對 AI 來說太具有戰略意義了。它最早是作為 Google App Engine(Google應用引擎)起步的。那是 2008 年,人們快速為網頁(後來的移動應用)搭建後端的方法。它是一種平台即服務(PaaS)。所以你必須以這種非常狹隘的“Google式”方式做事。你必須使用特定的 SDK,必須用 Python 或 Java 編寫,必須完全按照他們想要的方式部署。它不是那種會對你說:“嘿,開發者,你想幹什麼都行,只要用我們的基礎設施就好”的東西。它預設性很強。這與 AWS 當時的做法完全不同,也與他們今天的做法不同。後來全世界都意識到 AWS 的路子是對的,即雲端運算應該是基礎設施即服務(IaaS)。甚至微軟也相當快地將 Azure 轉型到了這個方向,就像是:你想要儲存,我們有儲存給你。你想要虛擬機器,我們有虛擬機器給你。就連微軟也相當迅速地將 Azure 轉型到了這個方向,即:你想要儲存?我們有。你想要虛擬機器(VM)?我們有。你想要算力,想要資料庫?我們都能滿足。最終,Google在 2012 年推出了自己的基礎設施即服務。花了四年時間。他們推出了 Google Compute Engine,後來更名為 Google Cloud Platform(Google雲平台)。這就是今天這項業務的名稱。外界對Google的詬病在於,他們似乎永遠搞不懂如何與企業客戶打交道。他們的核心業務是製造人們喜愛的、打磨得極好的產品,並儘可能讓這些產品自助服務化,然後通過廣告商賺錢。老實說,除了使用Google搜尋,人們別無選擇,對吧?它並不一定需要為廣告客戶提供極佳的企業級體驗,因為客戶無論如何都會來,對吧?所以他們習慣了這種自助服務體驗。與此同時,雲端運算市場是一場殘酷的肉搏戰(knife fight)。這些都是大宗商品,一切都關乎企業客戶。這是關於儘可能低的價格,關於企業關係,關於巧妙的捆綁銷售,以及能否提供完整的解決方案David:你說“解決方案”,我想到的是“毛利率”。Ben:是的,所以Google在這個領域走出了他們的舒適區。早期他們不想洩露任何“皇冠上的明珠”。他們將自己的基礎設施視為秘密武器。我們不想讓別人使用它。我們在上面為自己編寫的最好的軟體工具,比如 Bigtable、Borg(Google的叢集管理系統)或 Disbelief,這些服務我們不會在Google雲上提供。這些是競爭優勢。但,Thomas Kurian 來了之後,一切都打破了。2017 年,在他加入的前兩年,這項業務營運了 10 年後營收只有 40 億美元。2018 年,他們第一個非常明智的戰略決策點是,推出了Kubernetes。這裡的智慧是:如果我們讓開發者將應用程式遷移到其他雲變得更便攜——世界某種程度上希望這裡是多雲策略,對吧?我們是第三名。我們沒什麼可輸的。所以我們可以提供這個工具,作為一種針對 AWS 和 Azure 的反向定位。我們改變開發者的範式,讓他們使用這些容器。他們在我們的平台上進行編排,然後你知道,我們有很棒的服務來為你管理它。這非常聰明。所以這成為了他們戰略的支柱之一:你想要多雲?我們會讓這變得簡單,你當然也可以選擇 AWS 或 Azure。這很棒。所以 David,正如你所說,還有誰比甲骨文(Oracle)前總裁 Thomas Kurian 更瞭解企業需求的人呢?這直接體現在了它們的營收增長上,2020年,他們營收突破 130 億美元,三年內幾乎翻了三倍。他們在市場推廣(GTM)部門招聘了大約 1 萬人。我沒誇張。而在他來的時候,這個部門只有 150 人,且大部分都在加州,並沒有在區域上分佈到全球各地。最有趣的是,Google一直以來某種程度上就是一家雲公司。他們有最好的工程師建構這個驚人的基礎設施,對吧?他們有產品,有基礎設施,只是沒有市場推廣組織,對吧?而且產品化完全是“Google式”的。就像是為我們自己,為工程師做的。他們並沒有真正建構讓企業按照自己想要的方式建構的東西。這一切都改變了。2022 年,他們的收入達到 260 億美元。2023 年,他們就像是一個真正可行的第三大雲服務商。他們還在 2023 年實現了盈利。如今,他們的年收入運行率超過 500億美元。同比增長 30%。他們是主要雲服務提供商中增長最快的,五年增長了 5 倍。這主要歸功於三點:第一,徹底覺醒,明白了如何真正服務企業客戶;第二,傾力投入多雲戰略,真正給企業開發者他們想要的東西;第三,AI對所有超大規模雲廠商來說都是巨大的順風,因為這些工作負載都需要在雲端運行,涉及海量資料、海量算力和能源。但在Google雲,你可以使用 TPU(張量處理單元),他們生產了大量的 TPU,而其他所有人都在拚命地向輝達購買GPU 的配額。所以,如果你願意不使用 CUDA 並在Google的技術堆疊上建構,他們有充足的 TPU 供你使用。我認為Google雲有兩個方面是他們在當初用App Engine 創業時未曾預見,但今天對Google具有巨大戰略意義的。第一,雲僅僅是 AI 的分發機制。所以如果你今天想玩轉 AI,你要麼需要一個偉大的應用,一個偉大的模型,一款偉大的晶片,要麼需要一朵偉大的雲。Google正試圖同時擁有這四樣。沒有其他公司能擁有超過一項。我認為這是正確的決策。想想那些 AI巨頭。輝達有晶片,算是有雲但也不完全是。他們只有晶片,最好的晶片,人人都想要的晶片,但終究是晶片。然後再看看其他科技巨頭。Meta 目前只有一個應用,他們在前沿模型的競賽中完全出局了。我們還要看看他們的招聘狂潮會帶來什麼結果。你看亞馬遜的基礎設施,他們有雲,也許有應用。我實際上不知道 Amazon.com 是否在很多方面受益於大語言模型(LLM)。雲的領導者,微軟雲,也只是雲,對吧?他們做一些模型,但我的意思是他們有應用、雲。蘋果什麼都沒有。AMD 只有晶片。OpenAI 有 AI 模型。Anthropic有模型。這些公司沒有自己的資料中心。他們雖然在嚷嚷著要造自己的晶片,但並沒有真正落實,肯定沒有達到規模化。Google擁有規模化的資料中心、規模化的晶片、規模化的模型使用量。我的意思是,甚至僅僅從 google.com 現在的 AI 概覽(AI Overviews)查詢和規模化應用來看。他們擁有 AI 的所有支柱,我認為沒有其他公司擁有超過一項,而且他們有最多的淨利潤可以用來“燒錢”。對吧?然後是這其中具體的晶片方面。如果Google沒有雲,它就不會有晶片業務。它只會有內部晶片業務。外部公司、使用者、開發者、模型研究人員能夠使用 TPU 的唯一途徑,就是Google擁有一個雲來交付它們,因為亞馬遜或微軟絕不可能把Google的TPU 放在他們的雲裡。我想大概一年內這可能會發生。已經有傳言說未來幾個月一些新興雲服務商(NeoClouds)將提供 TPU。雖然還沒官宣,但 TPU 很可能很快會在新興雲服務商中可用,這是一件有趣的事情。Google為什麼要這麼做?他們是想建立一個像輝達那樣靠賣晶片賺錢的業務嗎?我不這麼認為。我認為更多的是他們試圖圍繞自己的晶片建立一個生態系統,就像 CUDA 那樣。只有當你的晶片在人們運行現有工作負載的任何地方都可訪問時,你才能可信地做到這一點。如果這真的發生,會很有趣。也許有一天TPU 會出現在 AWS 或 Azure 上,但我不認為他們一開始就能做到這一點。如果Google沒有雲,也沒有任何途徑讓開發者使用 TPU 並開始想要 TPU,亞馬遜或微軟會說:“啊,你知道,好吧,Google,我們會拿一些你們的 TPU,即使外面沒有開發者使用它們。”對吧。對Google的“看多”與“看空”分析David : 我想我們這次結尾需要做一個“看多和看空”(Bull and Bear)分析。Ben: Google擁有通向基本上全人類的分發管道,作為網際網路的“前門”。他們可以隨心所欲地引導流量。你已經在 AI 概覽中看到了,也在 AI 模式中看到了。儘管很多人用 ChatGPT 做很多事情,但我假設Google的流量本質上仍處於歷史最高水平,而且這是一種默認行為,非常強大。所以這是對執行力的押注,賭Google能弄清楚如何執行並利用 AI 建立一個偉大的業務,但這仍然是他們可能會輸掉的局。而且他們有一個可行的產品,我不覺得 Gemini 比 OpenAI 或Anthropic 的產品差。這是關於價值創造(Value Creation)與價值捕獲(Value Capture)的問題。價值創造肯定是非常巨大的,價值捕獲的機制還有待觀察。Google舊的價值捕獲機制是歷史上最好的之一。所以,這就是眼前的問題。我們不要混淆,這不僅是一個好的體驗,這是一個極好的體驗。所以我們已經討論過,Google擁有贏得AI 競賽的所有能力,而且優勢明顯。基礎模型、晶片、超大規模雲服務,所有這些都有自我造血的資金支援。我的意思是,另一件瘋狂的事情是,你看雲廠商有自我造血的資金。輝達有自我造血的資金。沒有一家模型製造商有自我造血的資金,所以他們都依賴外部資本。Google是唯一擁有自我造血資金的模型製造商。這不瘋狂嗎?基本上,所有其他大規模使用的基礎模型公司實際上都是初創公司。而Google是由一個巨大的資金漏斗資助的,這個漏斗大到他們為了好玩把多餘的美元還給股東。再說一次,我們在談“看多”的情況。有一點我們沒提到,Google擁有連接其所有資料中的“粗管道”(fat pipes,高頻寬網路)。在 2000 年網際網路泡沫破滅後,Google以極低的價格買下了所有那些暗光纖(dark fiber),並在過去十年中一直在啟動它們。他們現在擁有資料中心之間自己的私有回程網路。沒有人擁有這樣的基礎設施。更不用說這還服務於 YouTube。那是真正的“粗管道”,這本身就是Google未來的一個看多理由。他們不僅可以在涵蓋長視訊和短影片的唯一規模化 UGC(使用者生成內容)媒體源上訓練模型,而且YouTube作為第二大搜尋引擎和巨大的目標網站,他們也擁有這些資源。所以他們預覽了一些功能,比如你將能夠購買視訊中出現的由 AI 標記或 AI 確定的物品。如果他們願意,他們可以去標記每一個視訊中的每一個產品,讓它們瞬間變得可購物。這不需要任何人工操作。他們可以直接做,然後在上面運行他們的標準廣告模型。然後還有他們一直在建構的所有視訊AI 應用,如 Flow 和 Veo。這將為 YouTube 生成視訊帶來什麼,是增加 YouTube 的參與度還是廣告收入呢?他們仍然擁有瘋狂的人才儲備。即使,你知道,他們總是在這裡、那裡流失了一些人才。但,他們也表明願意為合適的人才花費數十億美元並留住他們。讓我們談談晶片的單位經濟模型。每個人都在支付輝達 75%-80% 的毛利率,這意味著晶片的製造成本被加價了 4 到 5 倍。很多人稱之為“黃仁勳稅”(Jensen tax)或“輝達稅”。你可以這麼叫,也可以稱之為好生意,或者定價權,或者供應稀缺,隨你怎麼說。但這確實是事實。任何不自己製造晶片的人都在向輝達支付巨額溢價。Google仍然需要向他們的晶片硬體合作夥伴博通(Broadcom)支付一定的利潤,博通負責處理大量晶片與台積電(TSMC)介面的工作。我聽說博通在與Google合作 TPU 時的毛利率約為 50%,而輝達是 80%。但這仍然是一個巨大的差異。供應商 50% 的毛利率和 80% 的毛利率,區別在於 2 倍加價和 5 倍加價。當你這樣建構框架時,這對成本影響實際上是巨大的差異。所以你可能會適當地想,好吧,晶片真的是運行這些資料中心或訓練這些模型的總擁有成本(TCO)的大頭嗎?晶片是成本的主要驅動因素,但它們折舊非常快。我的意思是,5年就折舊,因為我們在推進晶片能力極限的速度、下一代模型的需求、台積電的生產速度方面都太快了。如果你認為你的 AI 晶片能折舊 5 年,五年前我們離 ChatGPT 還有兩年呢,對吧?或者想想黃仁勳在今年的 GTC 大會上說的話。他在談論 Blackwell 晶片,提到 Hopper 晶片時說:“呃,你不會想要 Hopper 的。”我的銷售人員會恨我,但在這一點上你真的不會想要 Hopper。要知道,這些可是 H100 啊。就在我們做最近那期輝達節目時,這還是最炙手可熱的晶片。事情變化得很快。所以我看到有估算說,營運一個 AI 資料中心的成本中,超過一半是晶片及其相關折舊。人力成本即研發(R&D)實際上也是相當高的一筆,因為僱傭這些 AI 研究人員和所有軟體工程人員是一筆不小的開支,大概佔 25% 到 33%。電力實際上只佔很小一部分,大約是2% 到 6%。所以當你考慮Google正在做的事情的經濟性時,它實際上讓你評估付給晶片供應商溢價,因為晶片是整個AI中最大的成本驅支出。所以我用 Gavin Baker(Atreides Management 的合夥人)來核實這其中的一些內容。他是一位偉大的股票投資者,長期研究這個領域。我們實際上在輝達 GTC節目中採訪過他,他指出,通常在歷史上的技術時代,成為低成本生產商並沒有那麼重要。Google贏不是因為它是成本最低的搜尋引擎,蘋果贏不是因為它是成本最低的。你知道,那不是人們獲勝的原因。但這個時代可能真的不同,因為這些AI 公司沒有像我們在科技行業習慣的那樣擁有 80% 的利潤率,或者至少在軟體業務中,這些 AI 公司充其量看起來像 50% 的毛利率。(註:也就說,AI公司比過去的科技公司毛利潤率更低,因此節省成本對它們來說很重要)所以,Google絕對是 Token的低成本提供商,因為他們營運著自己的所有基礎設施,並且能夠獲得低加價的硬體。這實際上會產生巨大的差異,可能意味著他們將成為為世界生產 Token 的贏家。我要為Google的看多案例再加一個要點。我們在第二部,也就是 Alphabet 那一集中談到的所有內容,Google內部的所有其他產品,Gmail、地圖、文件、Chrome、Android,那都是關於你的個性化資料,Google擁有這些資料,他們可以用它為你建立其他人無法做到的個性化 AI 產品。所以結束“看多”的真正問題在於,與搜尋相比,AI 會是一個好生意嗎?搜尋是一個很棒的生意,到目前為止 AI 還不是。但抽象來看,再次強調我們在談看多情況。所以我給你這個答案:它應該是一個好生意。在傳統的網路搜尋中,你輸入兩到三個詞——平均查詢長度。在 AI 聊天中,你通常會輸入 20 多個詞。所以應該會出現一種廣告模式,而且廣告費率實際上應該大幅提高,因為你有完美的精確度,對吧?你非常清楚那個使用者想要什麼,所以你可以真正決定是否向他們投放廣告。而 AI 應該非常擅長投放廣告。所以這一切都關乎弄清楚使用者介面、付費與免費的混合比例,以及這種廣告模式到底是什麼樣的。但在理論上,即使我們現在真的不知道產品是什麼樣子的,它實際上應該非常適合變現。而且由於 AI 擁有如此驚人的變革性體驗,所有這些在現實世界中發生或根本沒有發生的互動,比如回答問題和消磨時間,現在都可以在AI 聊天中發生。所以,數字互動的蛋糕實際上似乎比搜尋時代更大了。所以再次強調,變現應該會在某種程度上增加,因為那裡的蛋糕變大了。然後還有一個“銀河大腦”等級的看多理由,那就是如果Google真的創造了通用人工智慧(AGI),這些都不重要了。當然它是最有價值的東西。到目前為止,這些談起來都很有趣,但 AI 的產品形態並不適合廣告。所以儘管價值創造更多,但價值捕獲卻少得多。根據美國的一些粗略計算,Google每年從每個使用者身上賺取大約 400 美元。這是一個每個人都使用的免費服務,他們每年賺 400 美元。誰會為了使用 AI 每年支付 400 美元?人群比例佔比很少。有些人肯定會,但不是美國的每個人。所以如果你只看今天場面上的局勢,我看不到直接的價值捕獲路徑。想想Google在 1998 年推出時,僅僅 2 年後他們就有了 AdWords。他們瞬間想出了一個驚人的價值捕獲機制,非常快。另一個看空案例。回想 1998 年Google推出時,它顯然立即就是更優越的產品。David:是的,現在不是這種情況。Ben:不,現在有四五個很棒的產品。Google在聊天機器人方面的專用 AI 產品最初顯然是劣質產品,現在它可能與其他幾個產品不相上下,對吧?他們擁有 90% 的搜尋市場。我不知道他們擁有多少 AI 市場,但肯定不是 90%。但在穩定狀態下,可能會是 25% 左右,也許高達 50%。這將是一個有幾個大玩家的市場。所以,即使他們像在搜尋中那樣從每個使用者身上變現,但它們的使用者規模將會少很多,或者至少現在看起來肯定是這樣。AI 可能會奪走搜尋引擎的大部分使用者。即使沒有,我打賭它也會奪走很多高價值的使用者。我認為我唯一要補充的另一個看空理由是,他們現在面臨著作為在位者的額外挑戰——即使用者喜歡支援“弱者”挑戰強者,正如現在的AI初創公司更得人心,是吧?人心,難以量化;但會讓其道路變得有些艱難曲折。曾經,Google創業時,公眾喜歡和支援它們;如今,公眾已經不那麼待見這些高科技公司。它們變成了強者,不在是弱者了。同樣,全球的輿論時局也發生了微妙的變化,這影響了OpenAI、Anthropic 等初創公司,它們不得不在一開始就表現的像一家大型的、成熟的科技公司。使用者對科技公司的態度和包容性在縮小。Google的未來“潛力”分析Ben: 我們用 Hamilton Helmer 的“七種力量”來分析 AI 時代的Google。這七種力量是:規模效應(Scale Economies)網路效應(Network Economies)反向定位(Counter positioning)轉換成本(Switching Costs)品牌(Branding)稀缺資源(Cornered Resource)流程優勢(Process Power)問題是,其中那一種能使企業獲得持久的差異化回報?什麼賦予了他們持續獲得比最近的競爭對手更高利潤的權利?通常我們會對整個業務進行分析。我認為這期節目我們應該試著將其範圍限定在 AI 產品上。Gemini、AI 模式和 AI 概覽的使用,對比Anthropic、OpenAI、Perplexity、Grok、Meta AI 等競爭對手,規模效應是肯定的。也許,在 AI 領域比傳統科技領域更甚。我的意思是,他們正在將模型訓練成本分攤到每一次Google搜尋中。我肯定 AI 概覽背後是一些超級精簡的模型,但想想其他模型公司生成了多少推理 token,而 Gemini 生成了多少推理 token。他們只是將固定的訓練成本分攤到了海量的推理上。2024 年 4 月,Google在其所有平台上處理了 10 兆個 token。到 2025 年 4 月,這個數字幾乎是 500 兆。也就是,Google服務通過推理分發的 token 數量在一年內增加了 50 倍。而在 2025 年 4 月到 2025 年 6 月之間,它從略低於 500 兆增加到了略低於 1000 兆。技術上是 980 兆,但現在,因為已經是夏末了,肯定已經傳送了甚至數千兆的 token。David:是的,規模經濟肯定是最大的一個。Ben:我發現轉換成本相對較低。我用 Gemini 做一些事情,然後真的很容易切換走。David: 當它是個性化 AI,整合到行程、郵件和所有其它東西的時候,情況可能就不一樣了。Ben: 是的,轉換成本在 AI 產品中還沒有真正顯現出來,儘管我預計它們會出現。Ben: 網路效應。我不認為如果有其他人是 Gemini 使用者,這會對我更好,因為無論是否有人參與,他們都在吸納整個網際網路。我肯定AI 公司會隨著時間的推移發展出網路效應。David: Ok,把分發放在那裡?Ben: 儘管 ChatGPT 擁有“舒潔”(Kleenex,代指品類代名詞)般的品牌,但沒人擁有Google那樣的分發。Google的分發仍然令人難以置信。David: 那算是稀缺資源嗎?Ben: 我想是吧,Google搜尋肯定是一種稀缺資源。我不認為他們有流程優勢,除非他們能可靠地想出下一個 Transformer。上文中提到看空觀點,說他們是在位者。可對於大多數人來說,他們是信任Google的。他們可能不信任一些不知名的 AI 公司,但會信任Google。所以,總結一下,規模經濟是Google最大的一個優勢,其它還有品牌效應和稀缺資源,以及未來轉換成本的潛力。在花了數小時、數月瞭解這家公司之後,我提煉出的精髓是,這是“創新者的窘境”有史以來最迷人的案例。我的意思是,Larry 和 Sergey 控制著公司。他們曾多次公開表示,寧願破產也不願在 AI 上失敗。他們真的會這樣做嗎?如果 AI 不像搜尋那樣是一門好生意——感覺它當然會是,僅僅因為巨大的價值創造。但如果它不是,而他們在兩個結果之間做選擇:一個是實現我們組織世界資訊並使其普遍可訪問和有用的使命,另一個是擁有世界上最賺錢的科技公司。那一個會贏?因為如果只是為了使命,他們在 AI 模式上應該比現在激進得多,並且完全切換到 Gemini。這是一個非常難以拿捏的平衡。實際上,他們目前在保護核心特許經營權方面的管理方式給我留下了深刻印象,但這可能是那種基礎正在被侵蝕,卻不知為什麼尚未在財務資料中顯現出來的事情之一。我認為如果你看所有的大型科技公司,Google,儘管考慮到起步的情況看起來不太可能,但可能是目前在 AI 領域試圖穿針引線做得最好的。這對 “劈柴哥” 和他們的領導層來說是非常值得稱讚的。他們正在做出艱難的決定,比如我們要合併 DeepMind 和 Brain。我們要整合併標準化為一個模型,我們要真正快速地發佈這些東西,同時不做出魯莽的決定。迅速但不魯莽,你知道。顯然我們仍處於AI發生的早期階段,我們將看到 10 年後這一切會如何收場。被賦予管理一個使命和管理一個擁有公開市場股東的特許經營權的業務,是一個艱難的雙重使命,“劈柴哥” 和Google處理得非常好,特別是考慮到他們 5 年前的處境。我認為這將是歷史上最令人著迷的案例之一,值得我們拭目以待。好了,我們的Google系列暫時到此結束。重要事實披露:文章僅用於投資商業分析學習資料,不做投資建議或參考。對於曾經或以後探討或翻譯的系列公司,作者本人也許持有某一些公司股票的投資組合。但,作者本人堅決不做個股推薦!投資有風險,決策需謹慎!本文翻譯自:https://www.youtube.com/watch?v=lCEB7xHer5U&list=PLjZkFWu3rWSE2cZ8L2CbiRMmHtJeF0kHh&index=4&t=148s (希芙的星空)
Google全面超預期,績後大漲+6%:雲收入同比+33%,資本開支上調…
看了Google最新財報,實在太頂了,有一種集團軍全線進攻的架勢。尤其是雲業務,同比+33%有點過於誇張…1,具體看:(1)Alphabet2025年第三季度合併收入同比增長16%,按固定匯率計算增長15%,達到1023億美元;(2)Google搜尋及其他業務、YouTube廣告、Google訂閱、平台和裝置以及Google雲在第三季度均實現了兩位數增長;(3)Google服務收入增長14%至871億美元,反Google搜尋及其他服務、Google訂閱服務、平台和裝置以及 YouTube廣告業務的強勁表現;(4)Google雲收入增長34%至152億美元,淨利潤增長33%,主要得益於Google雲平台(GCP)核心產品、AI基礎設施和生成式AI解決方案的增長…對比一致預期,也是全面beat,雲業務格外亮眼,在高預期上繼續超預期3%:2,CEO績後提到:“Alphabet本季度業績非常出色,所有主要業務類股均實現了兩位數增長。我們首次實現了季度營收1000億美元的佳績…我們全端式人工智慧解決方案發展勢頭強勁,交付速度也很快,包括以創紀錄的速度在全球範圍內推出人工智慧概覽和搜尋中的人工智慧模式…除了在排行榜上名列前茅之外,我們的第一方模型(例如Gemini)現在每分鐘可處理70億個token,這得益於客戶直接使用 API的方式,Gemini應用的月活躍使用者已超過6.5億…7月份,我們宣佈旗下所有服務每月處理的Token總量達到980兆枚。現在我們每月處理的Token總量超過1.3千兆枚,一年內增長超過20倍。這真是驚人的成就!”我們在新業務方面持續保持強勁增長。Google雲加速發展,本季度末積壓訂單達1550億美元。此外,我們擁有超過3億付費訂閱使用者,主要來自Google One 和 YouTube Premium。”最後提到:“我們正在進行投資,以滿足客戶需求並抓住公司內部不斷增長的機遇…在雲端運算領域,我想指出一個明顯的增長勢頭:今年前三個季度我們簽署的超過10億美元的交易數量,超過了過去兩年的總和。我們確實看到了強勁的增長勢頭,並且正在快速推進。”……另外,資本開支來到了單季度239億美金,全年預期910-930億美金,超出此前的850億美金的指引,Google基本上鎖定了4w億美金俱樂部的門票…3,最秀的是,再次官宣了Anthropic的採購:“我們備受追捧的TPU產品組合以第七代TPU Ironwood為首,該產品即將全面上市。我們正在加大TPU產能投入,以滿足客戶和合作夥伴的巨大需求。我們很高興Anthropic最近宣佈計畫採購多達100萬個TPU。”4,資本開支大增,國內最受益的就是TPU產業鏈。這個鏈條將會加速爆發,成為明年產業趨勢最強勁的鏈條之一。產業鏈上的幾家重點公司,也會迎來新一輪業績暴增,後續我們會持續跟蹤。…p.s.:插一條Meta資本開支:我們目前預計2025年的資本支出將在700億至720億美元之間,高於我們之前預測的660億至720億美元。我們目前的預期是,2026年的資本支出美元增長將明顯高於2025年。 (橙子不糊塗)
當 AI 從試點進入規模化,華為數字金融的長期選擇
15 年,從裝置商到生態加速器。今年 7 月,調研機構 IDC 發佈的報告顯示,大模型及智能體在工業企業中的滲透率正快速提升,2025 年應用比例從 2024 年的 9.6% 激增至 47.5%。其中,超過 73.7% 的企業的應用已不再停留於試點,而是將 AI 擴展到公司內十數個乃至數十個具體場景。Google 雲去年 10 月發佈的《生成式 AI 的投資回報》報告顯示,在接受調查的 2500 多位企業高管中,超過 70% 表示其公司在部署生成式 AI 後的第一年便獲得了回報。2025 年,人工智慧正從輔助工具與前沿探索,全面邁入實際生產流程,評判標準不再僅是技術是否先進,而是投資能否在回報上兌現。相應地,客戶需求也從早期的技術驗證,轉向更明確的實效導向——他們開始計算 AI 的 “投資回報率”,期待解決方案提供商能夠幫助其獲得切實的業務增長與財務回報。在這種需求轉向下,華為 9 月的全聯接大會上主動回應,分享了諸多關於行業智能化轉型的最新實踐,並行布了多項重要產品和解決方案。作為華為服務金融客戶的窗口,華為數字金融軍團不僅在全聯接大會上回顧了過往案例,更重點推出了應對 AI 落地挑戰的 FAB(FinAgent Booster)金融智能體加速器。幫助客戶快速建立自己的 Agent 能力,縮短開發周期,讓 AI 加速融入業務流程。華為 FAB 金融智能體加速器,旨在幫助客戶快速開發智能體、提升利用 AI 的效率。華為數字金融軍團 CEO 曹沖在演講上說,華為作為一家技術公司,定位絕不是簡單為客戶提供 AI 底座,而是要全面幫助客戶推進 AI 轉型和商業成功。金融業的 AI 變革雖處早期,卻蘊含著巨大的結構性機會。這對方案商提出了更高要求——必須從技術、生態到服務建構系統性能力,才能滿足客戶在加速期的新需求。華為數字金融基於昇騰算力底座,一是在 AI 智能體平台、模型與場景應用上持續迭代升級; 二是擴大生態合作,目標是在算力之上建構一個覆蓋 AI 平台、模型、場景各層的開放體系,幫更多使用者獲得商業回報。從數字金融到 AI 金融1970 年代,中國的銀行業處於完全手工的階段:所有客戶的帳戶資訊、業務憑證都要整理成紙質檔案,存放在專用的檔案櫃裡。若需要查詢歷史記錄,工作人員必須手動翻找檔案,基礎業務高度依賴人工,效率與精準性受限,且憑證容易丟失損壞。轉機始於 1978 年,中國銀行從日本引進第一套理光 - 8 型主機系統,並於 80 年代批次成套引進日立 M150 小型電腦,逐步實現了儲蓄、對公、聯行、會計報表等日常業務的自動化處理,這標誌著中國金融行業數位化的開端。第一個階段是數位化,把原本人工操作的業務搬到電腦裡去,到 21 世紀初,隨著網際網路技術的普及,金融行業邁入了資訊化階段,大量業務資料化、智能化,大量的業務也可以線上完成,2002 年,招商銀行率先基於簡訊 /WAP 服務推出了 “掌上銀行”,智慧型手機時代,線上匯款、購買基金、股票交易等也逐步普及。隨著人工智慧技術的不斷發展,金融行業也開始嘗試在對內對外的各項業務中引入 AI 技術,眼下,行業正在走向第三個階段——金融數智化、AI 化的變革。2021 年《“十四五” 數字經濟發展規劃》中明確提到,合理推動巨量資料、人工智慧、區塊鏈等技術在銀行、證券、保險等領域的深化應用。技術迭代、技術演進,讓金融企業開始加速 AI 落地,今年 6 月,工行半年報中提到,已有 100 余個對內對外的業務中嵌入了  AI 智能體;郵儲銀行披露,已開展 230  余項大模型場景建設,智能審貸助手” 每天支援三農、信用卡等信審場景超 3 萬筆業務。AI 的價值開始直接體現在財務回報上。中國銀行業協會黨委書記、專職副會長邢煒在今年的服貿會演講中披露,人工智慧技術顯著提升了資產組織效率,數位化領先的商業銀行的股東回報年均增長率為 8.2%,明顯高於落後銀行的 4.9%。金融行業對於人工智慧的態度,已經從早期的技術探索過渡到務實的業務融合,目標開始明確指向效率提升與價值兌現。金融機構希望通過 AI 降本增效、方案商們希望通過技術升級帶來更有競爭力的方案,獲得更多客戶,這對於雙方都是機會、也都是挑戰。資料安全、模型可信度、演算法透明性、算力不足,尤其是中小銀行人才和資源的短板,仍是行業普遍困擾,服務商們需要提升安全性、技術可靠性、效率、可用性等方面的能力,滿足日益增長、變化的需求。華為數字金融 15 年:賣硬體——做軟體——提供系統解決方案作為中國最早、最重要的技術基礎設施供應商之一,華為服務金融客戶已有超過 15 年的歷史。2010 年左右,華為作為 ICT 裝置提供商,為銀行等金融機構提供建構其 IT 系統所需的基礎硬體,如伺服器、交換機、儲存等等,滿足金融機構對穩定、可靠、高性能 IT 基礎設施的需求。這也是華為服務金融客戶的起點。當時華為的業務模型相對簡單,但華為依靠技術與服務,很快打開了市場。隨著能力積累,其佈局已演進為覆蓋軟體、硬體、雲、資料與 AI 的全端式體系,這構成了華為作為技術供應商的核心壁壘。這一優勢直接體現在市場地位上:根據沙利文(Frost & Sullivan)與 IDC 的統計,華為雲在 2023 年及 2024 年中國金融行業大模型市場份額均位列第一。曹沖介紹,過去 15 年,華為目前已經擁有 150 多家金融解決方案生態夥伴,在金融行業,華為已經攜手全球超過 11000 傢伙伴,在 80 多個國家和地區服務超過 5600 家金融客戶。這個過程中,華為積累了若干經驗,不光是技術本身,還有關於金融行業的數智化轉型經驗、大型銀行的創新場景思路等等。2023 年,華為數字金融軍團明確了戰略方向:構築韌性的基礎設施、加速應用現代化,躍升決策數智化、助力業務場景創新;2025 年,面向 AI 時代的到來,數字金融將最後的助力業務場景創新升級為賦能 AI 業務變革,又新下設了證券軍團和保險軍團,服務更多元的客戶。本次全連接大會上,華為數字金融軍團結合過去的技術積累和對客戶需求的洞察,將 AI 創新方案、生態實踐、與夥伴的聯合方案、工程化經驗沉澱下來,推出一套全新的解決方案 FAB(FinAgent Booster)-金融智能體加速器。在 AI Agent 商業化元年,華為沒有直接給客戶提供 Agent 本身,而是提供了一個軟體開發平台,加速客戶的開發,讓他們更高效地擁有自己的智能體與 AI 能力。曹沖說,AI 給金融行業帶來了結構性的變革,服務從 GUI(圖形介面互動)被動服務向 LUI(自然語言互動)主動服務轉型、人機協作從人 + 工具向人 +AI 同事轉型、規則 + 結構化資料向知識 + 智能體轉型、計算中心從通用計算向智算結合通算轉型。為了讓客戶能適應這種劇烈的變化,幫助他們開發自己的能力、而不是提供通用的解決方案,是更合理、更高效的方式,他解釋說,金融企業級 AI 架構,必須要將能力 “解耦”,對智能體進行功能解耦,避免煙囪式開發;對模型能力分層解耦,通過強化學習和領域知識結合,建構細分場景的 “業務專家” 模型,支撐 AI 決策的專業性不斷提升。華為將 FAB 的特點總結為三點:開箱易用:包含 50+ 專用場景的工作流、合作夥伴積累的 30+ 原子化能力,實現 AI 能力的 “樣板間”,把典型場景智能體的開發時間從月級縮短為周級;開箱隨用:提供 MCP 生態和知識庫,客戶可以方便地定製、組裝各種能力,與自己或其他第三方服務快速連接。開箱暢用:典型場景的調優,通過資料合成、提示詞最佳化, 強化學習,讓模型精度和效果快速提升,實現 90% 以上的意圖識別精準率, 85% 以上的任務調度精準率。華為通過技術手段最佳化 FAB 的使用門檻,希望做到讓客戶開箱即用。華為多年積累的行業經驗與技術能力,是實現上述能力的基礎。去年曹沖在演講中曾總結,華為數字金融從為客戶提供可靠的基礎硬體,到提供金融級的平台軟體,再到系統性的解決方案,現在,華為數字金融希望能加速客戶的數智化處理程序,助力他們更方便、高效地通過 AI 能力提升效率、獲得商業回報。“安全要求極高” 是金融行業區別於其他行業的一大特點,方案商必須提供可靠的基礎設施、魯棒性極強的軟體保障系統安全。駭客的技術也在與日俱進,傳統計算需 1 兆年破解的加密,量子計算僅需 100 秒,華為此次發佈了一系列安全方案,包括包括零信任園區網即時動態鑑權;量子安全廣域網實現抗量子解密;AI 訓推保護方案防推理模型投毒;資料安全黑匣子抗極限網路攻擊。安全基礎之上,是高效,AI 落地到業務中表現如何,依賴的依然是 AI 大模型三要素:演算法、算力和資料。華為的優勢是自己生態內有完整的技術支援,算力方面,昇騰算力叢集提供低延遲、高效率的計算能力,提升推理資源利用率。資料上,華為提供了一套全鏈路、全要素的資料處理能力,將金融行業傳統的資料湖升級為知識湖,在保留原有資料的情況下,疊加一層知識圖譜的結構、語義與業務上下文,AI 在呼叫資料前,能先經過知識湖,理解沉澱下來的經驗,提高精準率與效率,讓 AI 智能體能夠像資深專家一樣,進行深度的推理和決策。“要像管理資料一樣管理知識,包括我們的經驗、語義等一切在數位化時代不能量化的東西,這樣 AI 才能更懂業務。” 曹沖介紹說。以 “融海計畫”  引領生態共贏金融本身是一個極其依賴生態、合作的行業。一筆完整的金融業務,往往涉及多個環節和機構,以確保資金的的安全和高效流轉。同時強監管的特性,也決定了單靠機構自身難以完成合規驗證。而隨著全球化合規要求日益嚴峻、技術全球化協作加深,不管是作為需求方還是供應方,都需要共同面對急劇變化的環境,科技企業單打獨鬥的時代已經過去。大型國有銀行、股份制銀行與區域性中小銀行,在業務重點、技術能力、業務需求上都有顯著不同,有的更關注增長、有的更關注合規;各個國家和地區都有著各自的政策、體系與商業規則,單一方案商提供的單一產品難以形成足夠的競爭力,往往需要多方協同,比如結合全球獨立軟體開發商(ISV)的通用技術與本地系統整合商(SI)的落地經驗,高效服務當地客戶,前者提供行業領先的、通用的技術方案,後者因地制宜,提供當地市場獨特的 know-how。華為數字金融軍團也在這個背景下,繼續加速生態建設。2021 年,華為就曾推出智慧金融夥伴出海計畫(簡稱 “FPGGP”),希望建立一個幫助中國金融夥伴走向全球市場的平台,它是全球優秀獨立軟體開發商和本地系統整合商的橋樑,把雙方的經驗與優勢互補。去年,根據使用者加速數智化轉型的需求,華為將其升級為 “融海計畫”,下設三個子計畫,不再只圍繞出海,而是從 “出海” 即金融夥伴出海計畫(FPGGP)、“開發驗證” 方案精築計畫(OBP)、“孵化創新場景” 睿變創新計畫(MVP)三個維度,幫助生態內的合作夥伴。金融夥伴出海計畫已經幫助一些中國企業加速走向了全球市場、讓全球客戶受益,華為與長亮科技合作,為菲律賓數字銀行 UnionDigital 開發新一代核心業務平台,用時 35 天完成貸款核心系統上線;方案精築計畫主要是與合作夥伴溝通深度開發和整合驗證,提高數智化轉型的效率,提升 AI 系統在業務中應用的速度與精度。華為與神州資訊合作開發了一套新的分佈式系統,能夠同時處理每秒超過 10000 筆的聯機交易和聯機批處理任務,結息日批處理時間縮短至 60 分鐘以內。睿變創新計畫則是幫助客戶孵化 AI 創新的應用場景,華為基於昇騰生態的輕量化金融大模型,幫助某銀行客戶建構智能信貸助手,智能生成信貸報告,時間從數天縮短到數小時。華為數字金融軍團還披露了人才培養上的一些努力,華為已經完成 30 多家金融機構的 AI 實訓,培養超過 2000 以上的 AI 人才;曹沖提到,接下來的目標是在國內 AI 人才培養覆蓋 5000 人,在海外數智化人才覆蓋培養 5000 人;同時,完成 5 期銀行數位化轉型海外班。在全聯接大會上的演講中,曹沖總結,華為過去是靠算力變現,但在 AI 時代,華為要和客戶用共創的模式,從底座、模型、知識、平台和工程、架構,場景,人才和生態八個方面,全面建構能力,支撐客戶 AI 變革有效落地。“很多金融機構,對 AI 的戰略和價值落地仍有很多困惑和困難,我們認為,一定要堅信 AI 對行業的變化是深遠的,決不能低估 AI 對金融的長期價值,要面向未來積極佈局和探索;同時,也不能高估 AI 的短期價值,要一步一個腳印去實踐。” 曹沖說。 (晚點LatePost)
Google雲發展迅猛,剛剛拿下英國國防部的4億英鎊合同,打造主權雲平台
Google Cloud (Google雲)近期發展勢頭迅猛,近日成功中標英國國防部(MoD)價值4億英鎊(約合5.43億美元)的重大項目,將為其打造主權雲平台。該項目將提供安全的雲基礎設施,在確保資料控制能力的同時推動創新。這一舉措與英國國防部在《戰略防務評估》中提出的利用先進雲基礎設施提升作戰能力的目標高度契合。根據協議,Google將使用Google Distributed Cloud (GDC)離線技術部署主權雲環境。該平台專門設計用於處理需要嚴格資料駐留和安全措施的工作負載,確保英國國防部的敏感資料完全儲存和管理在英國境內。此外,平台將整合Google的先進AI和機器學習工具,以提升國防部的分析能力和營運效率。英國國防部網路與特種作戰司令部司令James Hockenhull將軍表示,該部門致力於利用下一代技術和AI來增強作戰能力,確保英國安全。Google Cloud已承諾在英國組建專門的技術團隊來管理這一項目。與此同時,在本周的Goldman Sachs科技大會上,公司還透露,該部門未來兩年預計將實現約580億美元的新增收入。雲端運算業務負責人Thomas Kurian表示,公司目前擁有1060億美元的未確認銷售合同儲備,其中55%將在兩年內轉化為實際收入。在今年7月的財報中,Google Cloud已宣佈其年化收入突破500億美元, 雲業務增速達31%,該部門季度新增客戶數量環比增長28%。Kurian還透露,全球排名前十的AI實驗室中有九家都是Google Cloud的客戶,包括競爭對手OpenAI(多元戰略)和最近估值達1830億美元的Anthropic(Google投資);8月份Google Cloud剛剛與Meta簽訂6年100億美元雲服務大合同。儘管雲端運算業務目前僅佔Alphabet總收入的14%,遠低於廣告業務佔比,但它是公司增長最快的業務線之一。Alphabet CEO Sundar Pichai已將2025年的資本支出計畫從750億美元提升至850億美元,主要原因就是看好雲端運算需求的增長。Saasverse InsightsGoogle Cloud的英國國防部大訂單凸顯了主權雲在國防安全領域的戰略重要性,也體現了全球科技巨頭在政府和軍事市場的滲透加速。同時,Google Cloud積極佈局AI基礎設施賽道,通過為競爭對手提供雲服務來實現雙贏,展現了雲端運算在AI時代的戰略價值。這一模式啟示我們,在快速發展的AI領域,基礎設施服務商可以通過與各類AI創新者合作來共同擴大市場蛋糕,而不是非此即彼的零和競爭。#Google Cloud #雲端運算收入#AI基礎設施#OpenAI#企業增長戰略(Saasverse)
這一戰,Google準備了十年
9月3日,一則消息在科技圈引起了軒然大波:Google開始對外出售TPU了。據報導,Google近期已在接觸那些主要租賃輝達晶片的小型雲服務提供商,敦促他們在其資料中心也託管Google自家的AI處理器,也就是TPU。Google已與至少一家雲服務提供商——總部位於倫敦的Fluidstack——達成協議,將在紐約的一個資料中心部署其TPU。Google的努力不止於此。據報導,該公司還向其他以輝達為核心的服務商尋求類似的合作,其中包括正在為OpenAI建造資料中心的Crusoe,以及向微軟租賃晶片並與OpenAI簽有供應合同的輝達“親兒子”CoreWeave。9月9日,花旗分析師因TPU競爭加劇將輝達目標價下調至200美元,預計2026年GPU銷售額將因此減少約120億美元。明眼人都能看出來的是,Google和輝達之間的大戰,已經開始了。而它們爭奪的,將是AI計算這個真正的兆美元市場。然而,Google對這一戰的準備,其實比我們想像的都要久。01. TPU,AI計算的最優解?早在2006年,Google的內部就討論過在自家的資料中心中部署GPU、FPGA或ASIC的可能性。不過,當時只有少數應用程式能夠在這些特殊硬體上運行,而Google大型資料中心的過剩算力也完全夠它們使用了。因此,部署特殊硬體的計畫被擱置。然而,到了2013年,Google的研究人員發現:如果人們每天使用語音搜尋並通過深度神經網路進行3分鐘的語音識別,那麼當時Google的資料中心需要雙倍的算力才能滿足日益增長的計算需求。而如果僅通過擴巨量資料中心規模來滿足算力需求,不但耗時,而且成本高昂。於是,在這個背景下,Google開始了TPU的設計。Google的TPU是為AI計算而生的ASIC晶片,它專注於實現兩個核心目標:極高的矩陣乘法吞吐量與卓越的能效。為了實現高吞吐量,TPU在硬體層面採用了“脈動陣列”(Systolic Array)架構。該架構由大量簡單的處理單元(PE)構成網格。資料流從陣列的邊緣輸入,在每個時鐘周期同步地、一步步地流經相鄰的處理單元。每個單元執行一次乘法累加運算,並將中間結果直接傳遞給下一個。這種設計使得資料在陣列內部被高度復用,最大限度地減少了對高延遲、高功耗主記憶體的訪問,從而實現了驚人的處理速度。而其卓越能效的秘訣,則在於軟硬體協同的“提前編譯”(Ahead-of-Time Compilation)策略。傳統的通用晶片需要高能耗的快取來應對多樣的、不可預測的資料訪問。TPU則不同,它的編譯器在程式執行前就完整規劃好了所有資料路徑,這種確定性使其無需複雜的快取機制,從而大幅降低了能耗。在TPU的設計上,Google主導整體架構與功能定義,博通Broadcom參與了部分晶片的中後端設計工作,目前,Google TPU主要由台積電代工生產。隨著大語言模型參數的急劇擴張,AI計算任務正在從“訓練”走向“推理”。這時,作為通用算力單元的GPU,開始顯露出成本以及功耗過高的問題。而TPU從設計之初就專門瞄準了AI計算,具有很高的性價比優勢。據報導,GoogleTPU算力成本僅為OpenAI使用GPU成本的1/5,性能功耗比更是優於同代GPU。因此,為了抓住市場,Google圍繞著自己的TPU架構,打造了一系列產品與生態。02. Google造芯這十年Google第一代TPU (v1) 於2015年推出,通過高度簡化的專用設計,實現了超越同期CPU與GPU的能效比,並在AlphaGo等項目中展示了其高效能,從而驗證了AI ASIC的技術路徑。隨著研發深入,訓練環節的算力瓶頸日益凸顯,促使TPU的設計方向轉向系統級解決方案。2017年發佈的TPU v2為此引入了BF16資料格式以支援模型訓練,並配置了高頻寬記憶體(HBM)。更為關鍵的是,v2通過定製的高速網路將256個晶片單元互聯,首次建構了TPU Pod系統。隨後的TPU v3通過增加計算單元數量和引入大規模液冷技術,實現了性能的顯著提升。TPU v4的發佈帶來了互聯技術的重大革新,其核心是採用了光學電路交換(OCS)技術,實現了TPU Pod內部網路拓撲的動態重構,從而提升了大規模訓練任務的容錯能力與執行效率。進入v5與v6 (Trillium) 階段,TPU產品線呈現出分化策略,形成了分別側重於極致性能的'p'系列與能效比的'e'系列,以適應多樣化的AI應用場景。2025年Google TPU的全年出貨量預計為250萬片。v5系列總出貨量預計為190萬⽚,其中v5e佔⽐約120萬⽚,v5p佔⽐約70萬⽚, v6系列預計總出貨量為60萬⽚,⽬前僅v6e在市場上銷售,⽽v6p將在第四季度上市,約10-20萬⽚左右。預計到2026年,總體TPU銷量將超過300萬片。在今年的Google雲大會上,Google發佈了第七代TPU,代號“Ironwood”。Ironwood是Google迄今為止性能最強、能效最高且最節能的TPU晶片,其峰值算力達到4614 TFLOPs,記憶體容量為192GB,頻寬高達7.2 Tbps,每瓦峰值算力為29.3 TFLOPs。此外,Ironwood首次支援FP8計算格式,並在張量核和矩陣數學單元中實現這一功能,這使得其在處理大規模推理任務時更加高效。Ironwood最高配叢集可擁有9216個液冷晶片,峰值算力可達42.5 ExaFLOPS,是世界上最大的超級電腦El Capitan的24倍以上。其支援大規模平行處理和高效記憶體訪問,適用於複雜的推理任務如大型語言模型和混合專家模型。事實上,Ironwood的整體性能已經十分接近輝達B200,甚至在一些方面還有所超越。當然,輝達的統治力不僅在於其硬體性能,更在於整個CUDA生態。Google深知這一點,因此,它也建構了JAX這樣的,能在TPU上運行的高性能計算Python庫。Google還發佈了其模型流水線解決方案“Pathway”,用於向外部開發者訓練大型語言模型(LLM)。將其作為訓練模型的必備手冊,研究人員無需重新設計模型即可開發Gemini等LLM。有了上述的一整個“軍火庫“,Google終於可以和輝達掰掰手腕了。03. Googlevs輝達投資銀行D.A. Davidson分析師Gil Luria在最新報告中指出,過去一年以來Google母公司Alphabet大幅縮小與輝達的差距,如今已成為“最好的輝達替代方案”。報告顯示,過去半年,圍繞Google Cloud TPU的開發者活躍度激增了約96%。Gil Luria與前沿AI實驗室的研究人員和工程師交流後發現,業內普遍看好GoogleTPU。因此Luria認為,若Google將TPU業務與DeepMind部門合併並將它們分拆上市,估值或將高達9000億美元。AI獨角獸Anthropic此前使用亞馬遜的Trainium晶片來訓練模型,最近,該公司被發現正在招聘TPU核心工程師;馬斯克旗下的人工智慧公司xAI也對採購TPU表現出興趣。這一切都說明了業界對於TPU的認可。而Google自身也在積極行動。首先,Google有意在公司內部進行從輝達GPU到自研TPU的迭代。Omdia資料顯示,2024年估計Google訂購16.9萬台Hopper 架構GPU,在五大雲廠商中排名最後,約為微軟的三分之一。同時,Google內部已部署了約150萬顆TPU。Google的對外戰略,就是文章開頭提到的,對那些使用輝達晶片的資料中心供應TPU。據報導,為了與Floydstack達成合作,Google將提供最高32億美元的備選擔保支援,若Fluidstack無力支付紐約新資料中心的租賃費用,Google將補足差額。根據野村證券最新報告,預計到2026年,ASIC總出貨量很可能會第一次超過GPU。而TPU正是目前最成熟的ASIC。輝達需要緊張起來了。04. 結語市場對GoogleTPU的積極接受,反映出越來越多的公司想擺脫輝達“一卡難求“的困境,尋求更高的性價比和更多元、穩定的供應鏈。而借此機會挑戰輝達的,也不只有Google一家公司。供應鏈資料顯示,Meta將於2025年第四季度推出其首款ASIC晶片MTIA T-V1。它由博通設計,具有複雜的主機板架構,並採用液冷和風冷混合技術。到2026年年中,MTIA T-V1.5將進行進一步升級,晶片面積將翻倍,超過輝達下一代GPU Rubin的規格,其計算密度將直接接近輝達的 GB200 系統。2027年的MTIA T-V2可能會帶來更大規模的CoWoS封裝和高功率機架設計。報告指出,根據供應鏈估計,Meta的目標是到2025年底至2026年實現100萬至150萬件ASIC出貨量。微軟、亞馬遜同樣有自研的ASIC晶片,正在對這片被GPU霸佔的市場虎視眈眈。對此,輝達也有自己的反擊手段。今年5月,輝達正式發佈NVLink Fusion。NVLink Fusion允許資料中心將輝達GPU與第三方CPU或定製化AI加速器混合使用,標誌著輝達正式打破硬體生態壁壘。近日,輝達執行副總裁暨首席財務官Colette Kress在高盛組織的會議上談及了對於AISC晶片所帶來的競爭看法,稱輝達GPU更具性價比。一場大戲已經拉開了帷幕。無論是兆美元的市場規模,還是未來AI時代硬體結構的定義權,都值得幾大巨頭為之瘋狂。這一戰,誰都有不能輸的理由。 (半導體產業縱橫)
Morgan Stanley:預計全球雲資本支出2025年增長56%,2026年有望實現30%以上增長
一、報告亮點速讀📌 核心預測:2025年全球雲資本支出(Capex)上調至4,450億美元(同比+56%),較此前預期高12個百分點;對於2026年,初步的共識預測為5,180億美元,同比+16%,但摩根士丹利預測有望達到5,820億美元,同比+31%。📊 主力貢獻:Google、Meta、亞馬遜、微軟四大巨頭佔2025年全球Capex增量的77%。🔋 非AI支出韌性:非GPU/ASIC(即非AI計算)雲資本支出預計在2026年同比增長+27%,為近十年最強水平。⚠️關鍵風險 :供應鏈短缺或延緩算力部署,利率上行可能擠壓融資能力。二、正文解讀1.背景資訊資料修正動因:全球11大超大規模雲廠商的2025年資本支出目前預計達到4,450億美元,同比增速為56%,較第二季度財報季開始時的預期高出12個百分點或350億美元。本季度財報期間,微軟、亞馬遜和Alphabet的資本支出上調貢獻了90%以上的正向修正,CoreWeave(輝達“親兒子”)、蘋果和Meta的上調貢獻了剩餘部分。歷史對比:雲資本支出預計將佔2025年收入的18.4%,同比上升5個百分點,並創下歷史新高,2026年或突破20%。其中亞馬遜增加了343億美元、Alphabet增加了322億美元、Meta增加了315億美元、微軟增加了253億美元,這四家公司合計貢獻了2025年資本支出同比增長的77%。2.核心邏輯AI需求爆發:主要雲服務提供商(CSPs)每月處理的Token數量激增→ 算力供不應求 → 雲廠商集體上調支出(GOOGL: $75B→$85B; META: $64B→$66B)→ 資本密集度突破歷史極值。美國四大雲服務提供商(CSP)的資本支出繼續上升,主要由對AI基礎設施的投入推動,以應對短期算力短缺以及長期變現戰略。本季度財報季,大多數管理層都強調了:必須加快基礎設施部署進度、應對供應緊張、支援日益複雜的雲和AI工作負載。對這些投資能夠產生回報的信心更高,有意願在2026年前繼續維持較高的支出水平。結構性增長:2025年:非GPU/ASIC(即非AI計算)相關的資本支出預計同比增長56%至66%。受益領域主要包括高算力晶片(NVDA/AMD)、光通訊模組(800G滲透率↑)、液冷解決方案(散熱功率密度↑)。2026年:大摩預測非AI支出增速(27%)顯著高於共識(3%)。大摩認為目前2026年的市場共識過於保守,非AI計算資料中心元件供應商將在2026年迎來又一個強勁增長年。三、簡評:AI越來越卷,背後雲支出漲得飛快你用AI越多,科技巨頭投的錢就越多,雲支出就越漲。看似虛無的科技浪潮,其實早已對應在你每天用的每一個App裡。從筆者日常生活以及身邊的朋友也能感受到,企業在給投資者講故事時都在強調公司與AI的連接,嵌入的AI功能,為AI付費的使用者也越來越多,連PPT、Excel 都可以一鍵生成,甚至帶講解!這不是你的錯覺,而是背後雲端運算基礎設施在狂飆。 (研報百靈鳥)